Betekenis van:
markov chain

markov chain
Zelfstandig naamwoord
    • a Markov process for which the parameter is discrete time values

    Synoniemen

    Hyperoniemen


    Voorbeeldzinnen

    1. This software carries out Markov Chain Monte Carlo calculations by the use of Gibbs Sampling.